随着机器学习(ML)模型越来越多地被部署在高风险应用程序中,决策者提出了更严格的数据保护法规(例如GDPR,CCPA)。一个关键原则是``被遗忘的权利'',它使用户有权删除其数据。另一个关键原则是实现可操作的解释的权利,也称为算法追索权,使用户可以逆转不利的决定。迄今为止,尚不清楚这两个原则是否可以同时进行操作。因此,我们在数据删除请求的背景下介绍和研究追索权无效的问题。更具体地说,我们从理论上和经验上分析流行的最先进算法的行为,并证明如果这些算法产生的记录可能会无效,如果少数数据删除请求(例如1或2)保证书(例如1或2)预测模型的更新。对于线性模型和过度参数化的神经网络的设置 - 通过神经切线内核(NTK)进行了研究 - 我们建议一个框架来识别最小的关键训练点的最小值,当删除时,它将导致最大程度地提高其最大程度的分数。无效的回流。使用我们的框架,我们从经验上确定,从训练集中删除2个数据实例可以使流行的最先进算法最多无效所有回报的95%。因此,我们的工作提出了有关``被遗忘的权利''的背景下``可行解释权''的兼容性的基本问题。
translated by 谷歌翻译